博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python3自己主动爬笑话
阅读量:5158 次
发布时间:2019-06-13

本文共 1134 字,大约阅读时间需要 3 分钟。

        学校的server能够上外网了,所以打算写一个自己主动爬取笑话并发到bbs的东西,从网上搜了一个笑话站点,感觉大部分还不太冷。html结构例如以下:

        能够看到,笑话的链接列表都在<div class="list_title">里面,用正則表達式能够把近期的几个笑话地址找出来,再进到一个笑话页面看下:

        每一个笑话页面里面是有多个小笑话组成的。所有在<span id="text110">标签下,每一个小笑话又单独一个<p>包裹,这样很easy就能够把每一个单独笑话放到一个list中。因为我爬笑话的目的是每天白天一个小时发一个笑话。所以爬取20个是足够的了,每一个页面平均有5个小笑话,爬4个页面就OK啦。

这里有几个细节。这个笑话网有的链接是有中文的,比方:

读书破万卷,搞笑如有神
直接urllib.request.urlopen函数不能解析中文的URL。必需要urllib.parse先转码一下才干正确解析。另一个细节是每段的小笑话之间是有换行的,用正則表達式的“.”是不能匹配换行符的,需要改成“[\w\W]”才干匹配。好了,以下是代码:

import urllib.requestimport urllib.parseimport rerule_joke=re.compile('([\w\W]*?)')rule_url=re.compile('')mainUrl='http://www.jokeji.cn'url='http://www.jokeji.cn/list.htm'req=urllib.request.urlopen(url)html=req.read().decode('gbk')urls=rule_url.findall(html)f=open('joke.txt','w')for i in range(4):	url2=urllib.parse.quote(urls[i])	joke_url=mainUrl+url2	req2=urllib.request.urlopen(joke_url)	html2=req2.read().decode('gbk')	joke=rule_joke.findall(html2)	jokes=joke[0].split('

') for i in jokes: i=i.replace('

','') i=i.replace('
','') i=i[2:] f.write(i)f.close()
看下爬取的结果:

        这样,每行是一个单独的笑话。方便其它程序使用。

转载请注明:转自

转载于:https://www.cnblogs.com/yfceshi/p/7272702.html

你可能感兴趣的文章
java 几种常见的定时器
查看>>
WIN10 计算器 计算 表数范围小的可以向表数范围大 数据丢失
查看>>
知识点
查看>>
Judy alpha 第一天
查看>>
Json序列化之.NET开源类库Newtonsoft.Json
查看>>
xml序列化及反序列化.net对象
查看>>
需要我们了解的SQL Server阻塞原因与解决方法
查看>>
customize Vimium
查看>>
Chemistry
查看>>
mysql的Event 及 时间 操作
查看>>
python中的魔法属性
查看>>
心急的C小加
查看>>
编译原理 First,Follow,select集求法
查看>>
maven package跳过测试
查看>>
不要轻易相信用户
查看>>
javascript
查看>>
【LOJ】#2549. 「JSOI2018」战争
查看>>
MYSQL逆向工程generatorConfig
查看>>
Microsoft Visual Studio 2010(vs10)安装与使用
查看>>
sitecore系列教程之Sitecore个性化-体验概况概述
查看>>